Coursera Machine Learning Week3 逻辑回归 过拟合
Coursera Machine Learning Lunar’s note
分类问题 Classfication
Linear regression 不适用分类问题
Logistic Regression
- Model:Logistic function(Sigmoid function)
- Hypothesis Representation
- Decision boundary决策边界
就是决策边界,在边界的不同side做不同决策,比如说 在图像中就是一条直线,直线上方和下方是不同class
非线性决策边界 一次多项式不适用时可以使用高阶多项式 - 代价函数cost function 线性回归中的代价函数用在这里会变成非凸函数(non-convex)所以要使用不同的代价函数(极大似然估计 maximum likelihood estimation)
- 简化版本
- 拟合参数 fit parameters 梯度下降 Gradient Descent 方法和线性回归一样
高级优化 Advanced Optimization
- Conjugate gradient
- BFGS
L-BFGS
advantages:- 不需要选择学习速率
- 比梯度下降更快
disadvantages:
- 更复杂
这里还有提到许多通用的梯度下降算法的变种和优化。多元分类 Multiclass calssification
One-vs-all
分成n次二元分类问题,选取
过度拟合问题 Overfitting
欠拟合(underfit 或 High bias)
预测偏差较大
过拟合(overfitting)
(或 High variance) 对于训练集拟合得很好,但是对new example表现不佳。
解决过度拟合
- How
使用新的cost function
那么最小化 的过程中(使用梯度下降或者正规方程都可以), 也会逐渐变小。但是过大的 比如 会导致欠拟合。 - Logistic regression中的正则化,注意cost function中最后一项
- Logistic regression中的正则化,注意cost function中最后一项
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 陆陆自习室!
评论